在一个科学探究和发现层出不穷的世界里,对于那些熟悉机器学习潜力的人来说,机器学习在各个行业的大量推出并不令人意外。同样,以伦理为重点的研究也应运而生,这些研究是为了应对源自这些应用的偏见和不公平问题而出现的。公平性研究专注于对抗算法偏见的技术,现在比以往任何时候都得到更多的支持。公平性研究的很大一部分用于开发机器学习从业者在设计算法时可以用来审核偏见的工具。尽管如此,这些公平性解决方案在实践中仍然缺乏应用。本系统综述深入总结了已定义的算法偏见问题和已提出的公平性解决方案空间。此外,本评论深入分析了自发布以来解决方案领域出现的问题,并列出了机器学习从业者、公平研究人员和机构利益相关者提出的需求分类。这些需求已被整理并提交给对其实施影响最大的各方,其中包括公平研究人员、生产 ML 算法的组织以及机器学习从业者本身。这些发现可用于弥合从业者和公平专家之间的差距,并为创建可用的公平 ML 工具包提供信息。
![arXiv:2112.05700v1 [cs.AI] 2021 年 12 月 10 日PDF文件第1页](/bimg/8/86e97e983c57cc727d4773ec27f87f0702bfecb1.webp)
![arXiv:2112.05700v1 [cs.AI] 2021 年 12 月 10 日PDF文件第2页](/bimg/0/00089c7e224d0162da29abda68717dfead972172.webp)
![arXiv:2112.05700v1 [cs.AI] 2021 年 12 月 10 日PDF文件第3页](/bimg/8/8aa289f38f93146e339c81149cb904748463ab95.webp)
![arXiv:2112.05700v1 [cs.AI] 2021 年 12 月 10 日PDF文件第4页](/bimg/9/9340396fd6475d60da1dadfb7e90b1ee4a29c6c8.webp)
![arXiv:2112.05700v1 [cs.AI] 2021 年 12 月 10 日PDF文件第5页](/bimg/7/7874dca81def1ae91b60b47dc4109bba1cdf4bf8.webp)
